Chào mừng bạn đến với Bài học 7, nơi chúng tôi giới thiệu Học truyền tải. Kỹ thuật này bao gồm việc tái sử dụng một mô hình học sâu đã được huấn luyện trên một tập dữ liệu khổng lồ và tổng quát (như ImageNet) và điều chỉnh nó để giải quyết một nhiệm vụ mới, cụ thể hơn (ví dụ như thách thức FoodVision của chúng ta). Đây là yếu tố then chốt để đạt được kết quả tiên tiến nhất một cách hiệu quả, đặc biệt khi các tập dữ liệu có nhãn bị giới hạn.
1. Sức mạnh của trọng số đã được huấn luyện trước
Các mạng nơ-ron sâu học các đặc trưng theo thứ bậc. Các lớp thấp học các khái niệm cơ bản (cạnh, góc, họa tiết), trong khi các lớp sâu hơn kết hợp chúng thành các khái niệm phức tạp hơn (đôi mắt, bánh xe, các đối tượng cụ thể). Điểm mấu chốt là các đặc trưng cơ bản được học từ sớm là phổ biến và áp dụng được rộng rãitrên hầu hết các lĩnh vực thị giác.
Các thành phần của Học truyền tải
- Nhiệm vụ nguồn: Huấn luyện trên 14 triệu ảnh và 1000 danh mục (ví dụ: ImageNet).
- Nhiệm vụ đích: Điều chỉnh trọng số để phân loại một tập dữ liệu nhỏ hơn nhiều (ví dụ: các lớp thực phẩm cụ thể của chúng ta trong FoodVision).
- Thành phần tận dụng: Hầu hết các tham số của mạng lưới—các lớp trích xuất đặc trưng—được tái sử dụng trực tiếp.
Chạy mã để kiểm tra các ten-sơ đang hoạt động
Kích thước đặc trưng đầu vào phải khớp với đầu ra của lớp cơ sở đã đóng băng.
Kích thước: 512.
Kích thước đầu ra 512 là đầu vào, và số lượng lớp 7 là đầu ra.
Mã:
new_layer = torch.nn.Linear(512, 7)Kích thước đặc trưng đầu ra phải khớp với số lượng lớp đích.
Kích thước: 7.